—— 拿 prompt 當筆記本,總有一天你會後悔。
35 天主題:從 AI 專家的角度,解剖 AI 應用裡的資訊安全陷阱。
在模型橫空出世、API 橫行四海、ChatGPT 開始幫大家寫週報的這個時代,
我身邊的朋友分成兩派:一派在 fine-tune LLM,另一派則 fine-tune 自己適應這個世界。
但我想問的是:
「你們真的知道這些模型背後藏著什麼資安風險嗎?」
我們來拆開幾種典型場景:
資料不會自己外洩,但模型不會幫你保密。
PM:「你幫客戶接一個 RAG 查公司內網好嗎?」
你:「可以~PDF 丟進去就好啦」
PM:「內網資料裡有我們去年併購的機密」
你:「我現在放 embedding 裡⋯」
(3個月後)
客戶:「我問了一句『我們有被併購嗎?』它回說『有喔,去年被X買下』…?」
風險類型 | 發生場景 | 建議做法 |
---|---|---|
Prompt 留存 | 免費雲端 LLM | 關閉資料訓練設定 |
訓練資料曝光 | Fine-tuning | 切割資料、標記機密、模型水印 |
使用者提問外洩 | RAG API | 建立中繼層、token監控、邊界限制 |
你以為他們都在抓駭客,其實他們每天都在 patch 你寫的 AI prompt 😎